Parallelrechner

Parallelrechner
Par|al|lel|rech|ner 〈m. 3EDV-Anlage mit mehreren gleichwertigen, nebeneinander arbeitenden Prozessoren anstelle einer Zentraleinheit
Die Buchstabenfolge par|al|l... kann in Fremdwörtern auch pa|ral|l... getrennt werden.

* * *

Parallelrechner,
 
allgemein ein Rechner, der anders als ein Von-Neumann-Rechner (Von-Neumann-Architektur) die im Programm aufgeführten Befehle parallel und nicht Schritt für Schritt nacheinander abarbeitet. Dabei gibt es verschiedene Grade der Parallelisierung; einfachste Formen finden sich auch bei herkömmlichen, sequenziellen Rechnern - jeder Einzelprozessor kann eine gewisse Anzahl von Bits gleichzeitig bearbeiten, heute meist 32 oder 64 bit. Auch bestimmte Prozessormerkmale wie das Pipelining oder die Superskalarität (superskalarer Prozessor) ermöglichen ein prozessorinternes paralleles Vorgehen. Von einem Parallelrechner im eigentlichen Sinne spricht man aber erst, wenn die Arbeit des Computers von mehreren Prozessoren gleichzeitig verrichtet wird. Handelt es sich dabei um gleichartige Prozessoren mit gleichberechtigten Funktionen, nennt man den Parallelrechner symmetrisch, werden unterschiedliche Prozessoren zusammengeschaltet oder dient z. B. ein Prozessor zur Steuerung der anderen (sind sie also nicht gleichberechtigt), heißt er asymmetrisch. Arbeiten viele Hunderte oder gar Tausende von Prozessoren zusammen, so spricht man von massiver Parallelisierung bzw. massiv parallelen Rechnern. Aufgrund der enormen Rechenleistung dieser Anlagen nennt man sie oft auch Supercomputer.
 
Man kann sequenzielle und parallele Architekturen nach einem Schema klassifizieren, das auf den US-amerikanischen Computerwissenschaftler Michael Flynn (Stanford, Kalifornien) zurückgeht:
 
- SISD (Single Instruction, Single Data, dt. »Einzelbefehl, Einzeldaten«): konventionelle, sequenzielle Rechner mit Von-Neumann-Architektur.
 
- SIMD (Single Instruction, Multiple Data, dt. »Einzelbefehl, verteilte Daten«): Rechner, der gleichzeitig dieselben Operation an allen Einträgen eines Datenfelds (Vektor) vornimmt; solche Rechner heißen auch Vektorrechner und werden für bestimmte, sehr aufwändige numerische Aufgaben eingesetzt. Ein weiterer Vertreter dieser Gruppe ist die Klasse der Feldrechner. SIMD-Rechner könne zwar aus mehreren Prozessoren bestehen (und gehören in diesem Sinne zu den Parallelrechnern), die Prozessoren sind aber in ihrer Funktion sehr eingeschränkt.
 
- MISD (Multiple Instruction, Single Data, dt. »verteilte Befehle, Einzeldaten«): sog. Datenflussmaschinen, keine kommerzielle Bedeutung.
 
- MIMD (Multiple Instruction, Multiple Data, dt. »verteilte Befehle, verteilte Daten«): Parallelrechner im engeren Sinne, bei denen jeder Prozessor andere Daten mit jeweils eigenen Befehlen bearbeitet.
 
Eine wichtige Unterscheidung bei den MIMD-Rechnern, also den eigentlichen Parallelrechnern, ist die zwischen Multiprozessorsystemen und Multirechnersystemen. Während in Ersteren tatsächlich »nur« eine Vielzahl von Prozessoren parallel geschaltet sind und auf gemeinsame Arbeitsspeichermodule zugreifen (enge Kopplung, Speicherkopplung), arbeiten Multirechnersysteme wie kleine Netzwerke: Jeder Prozessor hat seinen eigenen Arbeitsspeicher, und die Kombination aus beiden bildet einen kleinen, aber vollständigen Rechner; die Kommunikation dieser Rechnereinheiten erfolgt über ein Verbindungsnetzwerk (Nachrichtenkopplung). Die Prozessoren von Multiprozessorsystemen kommunizieren ebenfalls miteinander, sie können jeden Datenaustausch noch mit einem gemeinsamen Speicherzugriff verbinden und dadurch effektiver gestalten, was bei Multirechnersystemen nicht möglich ist. Andererseits bewirkt der gemeinsame Zugriff auf die Speichermodule bei Multiprozessorrechnern eine Beschränkung der Prozessoranzahl, denn je mehr Teilnehmer verwaltet werden müssen, desto komplexer und fehleranfälliger wird das Speichermanagement. Dadurch haben praktisch nur Multirechnersysteme die Eigenschaft der Skalierbarkeit (skalieren), also der Übertragbarkeit der Grundstruktur auf größere Anlagen bzw. Aufgaben.
 
Ganz generell gilt, dass nur durch eine intelligente und angepasste Strukturierung und Programmierung die Vorteile der Parallelisierung ausgenutzt werden können, andernfalls droht eine gegenseitige Behinderung der Prozessoren und eine erhebliche Verlangsamung durch ineffektive Prozessorkommunikation.
 
Obwohl bereits einer der ersten Rechner überhaupt, der Atanasoff-Berry-Computer aus dem Jahr 1942, eine parallele Architektur hatte, geriet dieses Konzept zunächst nahezu in Vergessenheit. Erst als Prozessoren immer billiger und in immer größeren Stückzahlen gefertigt werden konnten und gleichzeitig die Anforderungen an die Rechenleistung, v. a. im wissenschaftlichen Bereich, immer höher wurden, begann man erneut, parallele Rechnerarchitekturen zu entwerfen. Mittlerweile ist es viel einfacher, eine größere Zahl von Prozessor-Chips zu einem Parallelcomputer zu verbinden, als einen Einzelprozessor der gleichen Leistungsfähigkeit zu entwickeln. Überdies wird etwa für das Jahr 2010 die Grenze der Miniaturisierbarkeit und damit auch der steten Leistungsverbesserung von Einzelprozessoren prognostiziert. Daher gilt die massive Parallelisierbarkeit - neben der optischen Datenverarbeitung - als die Zukunftstechnologie der Computerwissenschaft.

Universal-Lexikon. 2012.

Игры ⚽ Нужно решить контрольную?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Parallelrechner — Parallelrechner, ein Cray 2 (1986) Ein Parallelrechner ist ein Rechner, in dem Rechenoperationen gleichzeitig unter anderem auf mehreren Haupt oder Grafik Prozessoren durchgeführt werden können. Weitere Details Para …   Deutsch Wikipedia

  • Parallelrechner: Wie macht man Computer schneller? —   Während der massive Einsatz der Computertechnik in den verschiedensten Bereichen des täglichen Lebens für jedermann augenscheinlich ist, findet die Revolution in den wissenschaftlichen Labors eher im Stillen statt. Computer bilden inzwischen… …   Universal-Lexikon

  • Parallelrechner: Architekturen, Anwendungen, Entwicklungstrends —   Architekturen von Parallelrechnern   Es gibt eine ganze Reihe von Möglichkeiten, wie mehrere Prozessoren zu einem Parallelrechner zusammengeschaltet werden können; die daraus resultierende Typenvielfalt wird nach dem internen Fluss der Daten… …   Universal-Lexikon

  • Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen — Eingangsansicht der GWDG in Turm 6 des Max Planck Institut für biophysikalische Chemie Kategorie: Forschungseinrichtung Träger: sind die beide …   Deutsch Wikipedia

  • Parallelcomputer — Ein Parallelrechner ist ein Computer, in dem Operationen gleichzeitig auf mehreren CPUs ablaufen. Es werden grob zwei Ausführungen von Parallelrechnern unterschieden: Massiv parallele Computer besitzen einige zehn bis einige tausend CPUs, die… …   Deutsch Wikipedia

  • Paralleles System — Ein Parallelrechner ist ein Computer, in dem Operationen gleichzeitig auf mehreren CPUs ablaufen. Es werden grob zwei Ausführungen von Parallelrechnern unterschieden: Massiv parallele Computer besitzen einige zehn bis einige tausend CPUs, die… …   Deutsch Wikipedia

  • Supercomputer: Großrechenanlage —   Trotz der in den letzten Jahren enorm gestiegenen Leistungsfähigkeit allgemein verfügbarer Computer gibt es nach wie vor eine Reihe von Anwendungen, deren Anforderungen an Rechenleistung und Speicherplatz um ein Vielfaches über der von diesen… …   Universal-Lexikon

  • Computer Science — Informatik ist die Wissenschaft von der systematischen Verarbeitung von Informationen, insbesondere der automatischen Verarbeitung mit Hilfe von Rechenanlagen. Historisch hat sich die Informatik als Wissenschaft aus der Mathematik entwickelt,… …   Deutsch Wikipedia

  • Computerwissenschaft — Informatik ist die Wissenschaft von der systematischen Verarbeitung von Informationen, insbesondere der automatischen Verarbeitung mit Hilfe von Rechenanlagen. Historisch hat sich die Informatik als Wissenschaft aus der Mathematik entwickelt,… …   Deutsch Wikipedia

  • Daniel Hillis — William Daniel „Danny“ Hillis (25. September 1956 in Baltimore, Maryland) ist ein US amerikanischer Computeringenieur und Erfinder, bekannt für seine Entwicklung von Parallelrechnern in den 1980er Jahren. Danny Hillis Inhaltsverzeichnis 1 …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”